与传统的机器人手不同,由于固有的不确定性,兼容的手不足的手对模型的挑战。因此,通常基于视觉感知执行抓握对象的姿势估计。但是,在闭塞或部分占地环境中,对手和物体的视觉感知可以受到限制。在本文中,我们旨在探索触觉的使用,即动力学和触觉感测,以构成姿势估计和手动操纵,手工不足。这种触觉方法会减轻并非总是可用的视线。我们强调识别系统的特征状态表示,该状态表示不包括视觉,可以通过简单和低成本的硬件获得。因此,对于触觉传感,我们提出了一个低成本和灵活的传感器,该传感器主要是与指尖一起打印的3D,并可以提供隐式的接触信息。我们将双手手动的手作为测试案例不足,我们分析了动力学和触觉特征以及各种回归模型对预测准确性的贡献。此外,我们提出了一种模型预测控制(MPC)方法,该方法利用姿势估计将对象操纵为仅基于触觉的所需状态。我们进行了一系列实验,以验证具有不同几何形状,刚度和纹理的各种物体的姿势的能力,并以相对较高的精度显示工作空间中的目标。
translated by 谷歌翻译